#AI 行業
巨頭砸錢6500億加劇擔憂,黃仁勳發聲“滅火”
在科技巨頭不斷加大AI領域支出激化市場的泡沫擔憂之際,輝達CEO黃仁勳公開發聲“滅火”,為動輒數千億美元的投入背書。美東時間2月6日周五,黃仁勳在接受採訪時表示,科技行業激增的AI基礎設施資本支出是合理、恰當且可持續的,這場“人類史上最大規模的基礎設施建設”由“極高”的算力需求驅動。黃仁勳作出上述表態當天,本周五AI概念股全線反彈。尾盤刷新日高時,輝達股價漲至187美元,日內漲約8.8%,收漲近7.9%,扭轉五連跌,擺脫周四所創去年12月17日以來收盤低谷,本周仍累跌約3%。黃仁勳講話正值投資者對持續高投入下AI能否獲得可觀的回報產生嚴重質疑,並且由於Anthropic發佈的新工具引發了AI顛覆傳統軟體商業模式的恐慌,科技股慘遭拋售。高盛分析師甚至悲觀地將當前的軟體業與本世紀初被網際網路顛覆的報紙類比。周五的報導指出,過去兩周公佈的最新財報和指引以及此前公開的計畫顯示,2026年,輝達的關鍵客戶Meta、亞馬遜、Google和微軟的計畫資本支出將合計達到約6500億美元,較2025年增長約60%。6000多億美元的支出規模遠超全球多個中等經濟體的GDP,其中大部分資金將用於購買輝達的晶片。華爾街見聞稍早提到,過去一周,市場對AI投資效率的擔憂引發劇烈拋售。據FactSet資料,微軟、輝達、亞馬遜、Google母公司Alphabet、Meta及甲骨文等科技巨頭的市值累計蒸發約1.35兆美元。上周四,公佈第二財季資本支出超預期猛增66%後,微軟股價收跌10%,市值一日蒸發3570億美元,創美股史上第二大個股單日市值跌幅,本周四盤後公佈預計2026年資本支出較上年增50%後,亞馬遜周五逆市大跌,早盤刷新日低時跌約10%,收跌近5.6%。01AI公司正盈利 支出將持續增長黃仁勳周五表示,所有這些科技公司的現金流將開始上升,AI基礎設施的建設將持續七到八年。他強調,AI已經變得“非常有用且非常強大”,其採用率變得“極高”。黃仁勳說:“只要人們繼續為AI付費,AI公司能夠從中獲得利潤,它們就會不斷翻倍、翻倍、翻倍、翻倍。”他援引具體案例說明輝達客戶如何利用AI盈利。Meta正在使用AI將原本在CPU上運行的推薦系統轉變為使用生成式AI和智能體的系統;亞馬遜雲服務AWS對輝達晶片的使用將影響這家零售巨頭的產品推薦方式;微軟將使用輝達驅動的AI改進其企業軟體。黃仁勳特別稱讚了OpenAI和Anthropic這兩家領先的AI實驗室,稱它們都在"賺大錢"。輝達去年向Anthropic投資100億美元,黃仁勳本周早些時候還表示,將大舉投資OpenAI的下一輪融資。他說:“如果它們能擁有兩倍的算力,收入將增長四倍。”他還指出,輝達過去售出的所有圖形處理器(GPU)——甚至包括六年前的A100晶片,目前都在被租用,反映出對AI算力的持續需求。黃仁勳認為,與網際網路初期建設不同,現在沒有閒置的基礎設施。026500億美元支出創紀錄據周五報導,Alphabet、亞馬遜、Meta和微軟四家公司預計2026年的資本支出將達到約6500億美元,這是本世紀以來無可比擬的投資熱潮。每家公司今年的預算預計將接近或超過它們過去三年的總和,其中任何一家的支出都將創過去十年任一家公司單年資本支出的最高紀錄。具體而言,Meta表示全年資本支出將升至最多1350億美元,同比可能躍升約87%。在截至2025年12月末的公司第二財季,微軟的資本支出增長66%至375億美元,分析師預計,在截至2026年6月的2026財年,微軟的資本支出將接近1050億美元。Alphabet本周三公佈的資本支出指引高端為1850億美元,超出分析師預期以及美國大量行業的支出規模。亞馬遜周四宣佈計畫2026年投入2000億美元資本支出,同樣導致股價暴跌。媒體彙編資料顯示,相比上述矽谷巨頭,包括美國最大的汽車製造商、工程機械製造商、鐵路公司、國防承包商、無線營運商、快遞公司,以及埃克森美孚、英特爾、沃爾瑪、通用電氣分拆的子公司在內,21家公司2026年的合計支出預計僅為1800億美元。DA Davidson分析師Gil Luria表示,微軟等前述四家科技巨頭“將提供AI算力的競爭視為下一個贏家通吃或贏家拿走大部分的市場,它們都不願輸掉這場競爭”。03華爾街擔憂投資效率與產能過剩華爾街對如此龐大的支出反應不一。Meta和Alphabet股價上漲,但亞馬遜和微軟遭到市場懲罰。四家公司自發佈最新財報和展望以來,總市值已縮水超9500億美元。GAM Investments投資總監Paul Markham指出,當前市場正被“情緒傳染效應”籠罩。他說:“圍繞大語言模型建設所需的天量資本支出、最終回報周期,以及潛在的產能過剩疑慮,已成為持續壓制市場情緒的結構性問題。”Theory Ventures投資人Tomasz Tunguz表示,這些科技巨頭曾是“現金製造機”,可“現在它們突然需要那些現金,而且需要更多,所以它們在借錢”。據媒體統計,2025年,與AI相關的公司和項目從債務市場籌集了至少2000億美元,預計僅2026年的相關債券發行規模就將達到數千億美元。Tunguz曾發表部落格文章將AI熱潮與過去的投資狂潮進行比較,他說這些狂潮並不總是以好結局收場,但“在上升過程中,它們都是經濟的巨大催化劑”。幫助企業整合資料和軟體的公司Boomi的CEO Steve Lucas表示:“我不會質疑AI的潛力,但我絕對會質疑其發展的時間框架,而且我會強烈質疑其經濟效益。”目前尚不清楚這些公司能否執行其宏大計畫。隨著資料中心建設升級,它們已在爭奪有限的電工、水泥車和台積電工廠生產的輝達晶片。Luria表示:“已經存在瓶頸,未來也會有。”04黃仁勳周二曾為軟體股"滅火"這不是黃仁勳本周首次為市場焦慮“滅火”。周二晚間,在軟體股遭遇拋售後,他在思科系統公司的活動上表示,本周軟體股拋售是“世界上最不合邏輯的事”。黃仁勳說,軟體產品是工具,AI將使用這些工具,而不是重新發明它們。他反問:“有一種觀念認為工具正在衰落、並被AI取代。你會使用螺絲刀還是發明一把新螺絲刀?”他表示,輝達自身已經廣泛採用此類工具,因此員工能騰出時間更多地專注於公司擅長的事:設計半導體和電腦系統。周二軟體相關股票連續第二天下跌,投資者擔心Anthropic等AI模型開發商發佈的工具最終將使公司內部的大量工作實現自動化。一隻美國軟體股ETF當天跌幅達4.1%,至4月以來最低水平,AppLovin和Unity Software是類股最大跌幅股之一。摩根大通分析師Toby Ogg表示,投資者投資科技的意願仍然很低。他在報告中寫道:“我們現在所處的環境是,該類股不僅在被證明無罪之前就有罪,而且現在在審判之前就被判刑了。”不過一些分析師對拋售的嚴重程度提出質疑,稱製造公司營運必需工具的軟體公司很難被顛覆。Jefferies分析師Brent Thill表示,Intuit提供專有資料和幫助客戶處理複雜美國稅法的系統,相對於AI具有優勢。 (華爾街見聞)
AI.com域名7000萬美元成交,刷新全球紀錄
域名已經可以打開(ai.com)據海外域名權威媒體DN Journal最新報導,頂級域名AI.com近日正式完成交易,成交價高達7000萬美元(約合人民幣5億元),成功刷新全球域名交易價格的最高紀錄,較2019年Voice.com創下的3000萬美元紀錄,實現翻倍有餘,成為域名交易行業的標誌性事件。此次天價交易的買家為Crypto.com創始人兼CEO Kris Marszalek。據瞭解,其收購AI.com的核心目的,是推出一款全新的自主AI代理業務,使用者通過簡單易懂的操作,即可建立屬於自己的專屬AI代理,這類代理不僅能精準回答各類問題,還可代為處理日常任務、傳送消息、跨應用程式執行相關操作。為快速打響新業務知名度,Crypto.com計畫於2月8日超級碗決賽期間,通過電視廣告正式推出該AI新業務,借助這一全球頂級體育賽事的超高曝光度,快速搶佔使用者心智。據悉,AI.com的域名價值伴隨著全球人工智慧熱潮持續攀升,早在2018年,該域名的市場報價就已達到2000萬美元,後續隨著AI技術的全面爆發,其價值進一步凸顯,近期市場傳聞其報價一度突破1億美元。值得一提的是,2023年該域名曾短暫指向OpenAI的ChatGPT頁面,隨後被轉手;2025年被神秘買家收購時,業內就已預測其後續交易有望創下新紀錄。此次成交不僅顯著提振了AI域名賽道 的市場信心,更凸顯了優質行業域名的核心戰略價值,也正式預示著AI商業化發展進入全新階段。 (深科技)
美股“SaaS末日”來臨:“軟體-PE”陷入“死亡循環”
AI衝擊下,軟體行業陷入"末日危機":標普北美軟體指數1月暴跌15%,創2008年以來最大單月跌幅,引發投資者恐慌性拋售。更危險的是,千億美元私募信貸風險敞口面臨資產減值壓力,進而可能收緊信貸,這將反過來進一步擠壓企業生存空間,形成致命的"死亡循環"。軟體行業正遭遇一場由人工智慧引發的生存危機,並將衝擊波傳導至私募信貸市場,形成危險的負反饋循環。高盛資料顯示,標普北美軟體指數已連續三周下跌,1月份暴跌15%,創下自2008年10月以來最大單月跌幅。這種恐慌情緒在本周二進一步加劇,AI初創公司Anthropic發佈面向企業內部律師的生產力工具後,法律軟體和出版公司股價應聲暴跌。Jefferies股票交易部門的Jeffrey Favuzza將當前局面描述為“SaaS末日”,指出目前的交易風格完全是“無論如何讓我離場(get me out)”式的恐慌性拋售,且尚未看到任何止跌走穩的跡象。這一沖擊並未侷限於股市,正迅速傳導至為軟體行業提供大量融資的私募信貸領域。Barclays分析師指出,軟體行業是商業發展公司(BDCs)最大的風險敞口,約佔其投資組合的20%,總規模在去年第三季度達到約1000億美元。隨著軟體公司估值暴跌,Blue Owl、Blackstone和Ares等BDC股價均出現下挫。摩根大通和高盛的分析顯示,市場正在經歷前所未有的分化:一邊是被視為AI超級周期受益者的半導體公司,另一邊是被視為最大輸家的軟體公司。隨著軟體股權估值暴跌,私人信貸機構面臨資產負債表重估的壓力,進而可能收緊信貸,這將反過來進一步擠壓本已面臨生存危機的軟體公司的增長空間,形成“死亡循環”。軟體股遭到恐慌性拋售市場對於軟體行業的悲觀情緒已醞釀數月,而Anthropic發佈的Claude Cowork工具成為了引爆恐慌的催化劑。投資者擔心,隨著AI技術的進步,傳統軟體公司的護城河將變得越來越淺,定價權受到擠壓,甚至面臨被完全取代的風險。Jefferies的Jeffrey Favuzza表示,市場上存在一種“嚴酷的觀點”,即軟體行業的前景可能淪為下一個“紙媒或百貨商店”。雖然從長遠看可能會出現極具吸引力的買入機會,但目前即使在大量拋售之後,投資者仍缺乏入場的確信度。LPL Financial股票研究主管Thomas Shipp也指出,AI帶來的不確定性使得軟體公司的增長結果範圍變寬,導致市場難以賦予其合理的估值,也難以判斷何為“便宜”。高盛的資料進一步佐證了這種恐慌:避險基金在半導體公司和軟體公司之間的持倉分歧達到了歷史極值。FactSet資料則顯示,儘管部分公司仍能通過財報考核,但通過率正在下降,掩蓋在整體健康資料之下的是行業內部劇烈的優勝劣汰。私人信貸的千億風險敞口SaaS類股的崩盤不僅是股市的問題,更是債市的隱患。巴克萊分析師Peter Troisi在報告中指出,BDC行業對軟體股票和信貸估值的下降尤為敏感。截至去年第三季度,BDC在軟體領域的總敞口約為1000億美元。這一風險敞口使得私人信貸與軟體公司之間形成了危險的聯動。隨著軟體公司股權價值縮水,作為貸款方的BDC面臨資產減值壓力。Blue Owl、Blackstone和Ares等大型機構的股價近期均出現波動,反映了市場對這種傳染效應的擔憂。摩根大通訊貸分析師Kabir Caprihan在最新報告中指出,儘管BDC管理層在過去一年多里已對軟體敞口進行了評估和壓力測試,但市場的反應表明,投資者擔心任何軟體行業的動盪都會讓BDC“患上感冒”。目前,軟體貸款約佔摩根大通追蹤的BDC貸款組合的16%,總額約700億美元。瑞銀策略師警告稱,如果AI對企業借款人造成激進的破壞,美國私人信貸的違約率可能飆升至13%。壓力測試與特定資產風險為了量化潛在損失,摩根大通對BDC投資組合進行了壓力測試。在一種簡單的假設情境下(即33%的公司違約,33%成為殭屍企業),這可能意味著30家被追蹤的BDC將面臨220億美元的損失,資產淨值減少11%。而在更極端的“嚴酷情境”下(75%違約率,10%回收率),累計淨損失可能接近500億美元,帳面價值稀釋達24%。具體的貸款資產已經開始顯現壓力。摩根大通報告強調,二級市場上部分軟體貸款的交易價格與BDC帳面上的估值存在顯著差異:Cloudera:由NMFC和BCRED持有,帳面估值平均約為97,但近期二級市場價格已跌至85左右。Cornerstone OnDemand:由Blue Owl等六家BDC持有,其定期貸款價格自2025年11月以來下跌約10個點,交易價格在83左右,而BDC的平均帳面估值仍在97。Finastra:由9家BDC持有,交易價格已跌至88,而平均帳面估值為101。摩根大通認為,雖然從外部很難分辨那些軟體公司能倖存,但顯然並非所有BDC都會遭受同等打擊。槓桿率較低的機構(如OTF)在面對資產減值時可能具有更強的韌性。然而,目前的市場情緒表明,投資者傾向於先拋售,再等待局勢明朗,這使得私人信貸市場正面臨類似疫情期間或地緣政治危機時的嚴峻考驗。 (invest wallstreet)
台積電擔憂晶片過剩?馬斯克:他們是對的,電力液冷都跟不上
馬斯克認同台積電對晶片產能過剩的擔憂。他指出,AI發展的核心瓶頸正在從晶片製造轉向“晶片啟動”能力,即電力、變壓器與冷卻系統的部署進度。目前,這些基礎設施的線性擴張速度,已嚴重落後於晶片產能的指數級增長。近日馬斯克表示,台積電對晶片產能過剩的擔憂"是對的"。他預測,AI行業的限制因素將從晶片製造轉向"把晶片開啟運行",這一轉變的核心瓶頸在於電力供應、變壓器配置和冷卻系統部署。1月6日,馬斯克與奇點大學執行主席彼得·迪亞曼迪斯(Peter Diamandis)和Link Ventures創始人戴維·布倫丁 (David Blundin)開展了一場關於AI未來的深度對話。他指出,當前晶片產能正呈指數級增長,而支撐其運行的能源基礎設施卻只能線性擴張。當兩條曲線交叉時,大量高性能AI晶片將因缺乏配套的電力轉換裝置和冷卻系統而無法投入使用。這一判斷直指當前AI基礎設施建設被嚴重低估的問題。對於投資者而言,這意味著AI算力競賽的焦點正在從晶片採購轉向能源基礎設施建設能力。01 電力成為AI部署的“速率限制”在對話中,馬斯克進一步揭示了AI基礎設施中電力瓶頸的具體形態。他強調,部署AI晶片絕非“將GPU運抵發電廠”那麼簡單,而是需要同步解決吉瓦級供電、高壓電轉換及高效散熱系統三大核心問題。馬斯克特別指出,整個資料中心行業正經歷從風冷到液冷的關鍵轉型,並警告這一過程蘊含巨大風險。他稱:“這對資料中心來說是一次根本性轉變,他們長期依賴風冷。一旦液冷管道發生破裂——比如在資料中心裡爆裂一根水管,就可能導致價值10億美元的損失。”他以xAI在孟菲斯的“巨像2號”項目為例說明實際挑戰:儘管項目選址緊鄰多條300千伏高壓線路,但完成接入仍需耗時約一年。為趕在2025年1月中旬前實現1吉瓦訓練叢集上線,團隊不得不臨時組合多台10至50兆瓦不等的燃氣輪機作為過渡電源,並借助大量Megapack電池組進行電力調平。02 晶片產能與電力供應的“曲線交叉”當被問及是否認同台積電對產能過剩的擔憂時,馬斯克給出了肯定的答覆:“我雖不確定他們的理由,但結論是對的。”他指出,關鍵在於識別“每個時期的限制性因素”,並預測到2026年第三季度(即約9-12個月後),核心瓶頸將從晶片製造轉向“使晶片運行起來”的能力。這一判斷源於兩條發展軌跡的錯位:AI晶片產能正以指數級速度擴張,而支撐其運行的電力基礎設施卻僅能線性增長。馬斯克強調:“若晶片產出呈指數增長,而電力供應只能緩慢線性提升,兩條曲線必將交匯。”這意味著晶片的製造速度可能遠超其實際可被部署並通電運行的速度。對此,戴維·布倫丁提出不同觀點,認為即便台積電將GPU產量從2000萬片提升至4000萬片,市場仍將設法解決供電問題。但馬斯克堅持,任何電力轉換環節或冷卻系統的缺失,都會導致晶片無法被真正啟用,從而從根本上抑制實際需求與採購行為。 (硬AI)
CPO,過熱了?
在AI基礎設施被資本與產業合力推向發展高潮的當下,凡是與“光”“互聯”“頻寬”“功耗”掛鉤的技術方向,都極易被貼上“下一代核心技術”的標籤,迅速成為市場追逐的焦點,其中共封裝光學(CPO),正是這股熱潮中最具代表性的存在。然而,就在行業對 CPO 的討論熱度節節攀升之際,博通首席執行長陳福陽(Hock Tan)卻在2025 財年第四季度財報電話會議上,為這股狂熱情緒澆下一盆冷水。“矽光子學在短期內不會在資料中心發揮實質性作用。”陳福陽並未簡單粗暴地否定這項先進技術地未來,他在後續問答中解釋,矽光子、CPO 絕非對現有技術的“跳躍式”替代方案,而是需要在既有互聯技術路徑的潛力被徹底榨乾後,才會被產業被動啟用的終極選擇。他將整個互聯技術的演進邏輯清晰梳理:首先是機架級銅互聯的規模化落地,隨後是可插拔光模組(Pluggable Optics)的持續迭代升級,唯有當這兩條技術路徑均觸及物理性能與經濟成本的雙重極限,矽光子 / CPO 才會真正成為行業剛需。“這一天一定會到來,但不是現在。”當然,給CPO降溫的並非只有博通一家。在最新的巴克萊第 23 屆全球技術大會上,包括Arista、Credo、Marvell、Astera、Lumentum在內的一眾行業頭部企業,均傳遞出了相似的聲音。從“算力不足”到“互聯焦慮”事實上,過去幾年裡,AI行業已經逐漸走出了早“單純堆算力的階段。即便是輝達這樣的算力王者,也在有意淡化對單點計算性能的強調,轉而反覆突出互聯、網路以及系統級架構的重要性——因為在大模型時代,真正決定上限的,早已不只是晶片本身。隨著模型參數規模與叢集規模同步呈指數級擴張,AI叢集的核心瓶頸也開始悄然從計算能力轉向互聯能力。此時考驗行業巨頭的,已不再只是能否豪擲重金採購更多GPU,而是如何在超大規模系統中實現高效互聯:通訊效率是否足夠高、延遲是否可控、系統能否穩定協同運行,正逐步成為決定算力能否“用得起來”的關鍵因素。行業顯然早已預見到這一變化。博通首席執行長陳福陽在財報電話會議中透露,其客戶正在規劃和部署規模超過10萬顆GPU的超大型AI叢集;而Arista在技術大會上進一步指出,行業內部討論的目標,已經指向百萬GPU等級的叢集架構。多位產業領袖的判斷趨於一致:當AI叢集規模從數千顆GPU擴展到數十萬、乃至百萬等級時,網路不再只是“頻寬夠不夠”的問題,而是演變為一整套系統性挑戰——包括互聯可靠性、功耗上限、可維護性以及整體部署節奏。正因如此,過去一年中,巨頭們反覆強調的關鍵詞也發生了明顯變化:Scale-Out(橫向擴展)、Scale-Up(縱向擴展)、Scale-Across(跨域擴展),以及功耗牆、鏈路可靠性、系統級協同設計……這些看似偏“工程化”的概念,實則標誌著行業對AI基礎設施瓶頸認知的一次深刻轉向——AI的競爭重心,正在從算力本身,全面邁向互聯與系統能力。橫向擴展用不到首先來說橫向擴展(Scale-Out),這一概念往往稱為叢集系統,通過增加獨立的伺服器來分散工作負載,從而提高計算容量,類似於輝達InfiniBand。對於巨頭而言,橫向擴展目前似乎還用不到CPO。博通陳福陽的表態最具代表性:800G可插拔技術於2022年推出,增長周期將持續至2026年;1.6T產品已進入量產,預計增長至少持續到2029年;3.2T技術已完成展示。“未來5-7年,可插拔光模組仍將佔據主導地位,這也是橫向擴展領域的CPO技術尚未被廣泛採用的原因。”Lumentum的袁武鵬進一步細化了2026年的市場結構預測:光連接埠總量將達到6000萬-7000萬個,同比增長接近翻倍。其中800G連接埠約佔55%-60%,1.6T連接埠約佔15%-20%。這一資料表明,即便1.6T技術已經就緒,800G仍將是2026年的絕對主流,行業並未出現“激進躍遷”。Marvell首席營運官Chris Koopmans的觀點進一步強化了這一判斷:“橫向擴展領域的CPO技術最終會到來,但仍需數年時間。在傳輸距離較長、需要互操作的市場中,可插拔產品的採用速度較慢。”他特別指出,客戶已經完成400G產品的軟體認證,當800G產品推出後,從400G向800G的遷移“幾乎是即時完成的”,新部署項目迅速採用了800G解決方案——這正是軟體預認證帶來的生態優勢,也是可插拔架構的核心護城河。Arista也強調,在1.6T速率下,“我們仍然有信心實現低功耗光模組(LPO)的穩定運行;同時,共封裝銅纜(CPO)等技術也在評估之中,這些都是潛在的差異化優勢。率先推出下一代速率產品並快速實現商業化,是我們的核心差異化策略之一。”縱向擴展也不著急?縱向擴展(Scale-up)專注於升級單台伺服器或基於機箱的系統,通過向現有系統增加晶片來提升算力,它曾被視為CPO技術的“第一戰場”,是CPO最有希望應用的場景。但在這個最需要CPO的場景中,量產時間表也被大幅推遲。CPO的急先鋒Marvell收購Celestial AI後給出了新的營收目標:2027年底年化營收達5億美元,2028年底翻倍至10億美元。其解釋道,這一時間表主要基於首款產品和首個客戶的落地情況。Celestial AI帶來的16太位元芯粒產品,其性能是橫向擴展領域最先進1.6T產品的10倍,具有完全不同的外形尺寸、密度、頻寬和技術特性——但即便如此,大規模商業部署仍被推遲至2027-2028年。Astera Labs的Jitendra Mohan給出了更為詳細的時間預判:“隨著系統複雜度提升、資料速率增長,以及客戶希望將縱向擴展領域從1個機櫃擴展到2-4個機櫃,轉向光學技術將成為必然選擇。我們與客戶就這一交匯點展開了深入合作,預計將在2028-2029年實現大規模部署。但光學技術的部署不會一蹴而就,2027年將進行一些測試性部署,為2028年的大規模部署做準備。”為什麼即便是最需要的場景,CPO應用時間表也被推遲?Lumentum的袁武鵬給出了供應鏈視角的解釋:“CPO供應鏈仍相對較新,需要時間來提升產能以支援大規模需求。因此,當前的供應限制並非源於基礎產能不足,而是因為供應鏈尚不成熟,供應商需要時間來適應需求增長。”Credo的CEO Bill Brennan則從產能角度分析:“縱向擴展場景的需求將是現有需求的數倍。我們目前已經在積極擴大產能,而縱向擴展場景將進一步大幅提升產能需求。這需要整個行業的共同努力,我們正在與多個客戶就此展開溝通,並已開始相關工作。”更深層的原因,是各種過渡方案的生命力超出預期。Astera Labs的Mohan坦言:“客戶之所以不願轉向光學,是因為光學技術需要更高的功耗和成本。”而博通則強調:“我們認為CPO是正確的技術方向,但我們不確定這些產品是否會完全部署,因為我們的工程師和行業同行會儘可能通過機櫃內銅纜和可插拔光模組實現縱向擴展,只有當可插拔光模組和銅纜都無法滿足需求時,矽光子技術才會成為必然選擇。”功耗與可靠性:比頻寬更真實的約束條件對於巨頭而言,功耗和可靠性正是他們遲遲不願意全面擁抱CPO的重要原因之一。Credo的Bill Brennan用具體案例闡釋了這一挑戰的嚴重性:xAI原本使用基於雷射的光模組連接18個機櫃的叢集,後來計畫遷移到液冷設施,將機櫃數量從18個壓縮到6個。團隊向Credo提出:“如果你們能生產7米長的線纜,我們就能建構一個‘零中斷’叢集。”因為銅纜解決方案的可靠性眾所周知,是絕對穩定的。“零中斷”這個概唸給了行業巨大啟發。Bill Brennan指出,從那時起,Credo的團隊開始重點攻克可靠性難題,“尤其是針對GPU與第一級交換機(T0)之間的鏈路。我們最近推出的所有產品,其差異化優勢核心都圍繞可靠性展開。”在巨頭看來,互聯技術首先要可靠可控,而非一味追求極限性能;可預測、可診斷、可維護,往往比“理論最優”更重要。Lumentum的袁武鵬在談到ZeroFlap光學解決方案時,詳細闡述了這一理念的技術實現。他指出,甲骨文與xAI一樣面臨鏈路中斷問題,但他們的鏈路長度遠超7米,只能採用基於雷射的光模組。Lumentum的方案核心是:在鏈路中斷髮生前識別潛在風險,並通過主動干預加以緩解。具體而言,Lumentum重新設計了定製化光學DSP,使其能夠在帶內(in-band)通訊——即在傳輸高速資料的同時,實現DSP之間的雙向通訊,傳輸遙測資料。然後將試點軟體進行深度整合,將原始資料轉化為可用的遙測資料;再通過交換機SDK實現與客戶網路的整合。“如今,我們能夠為客戶提供即時、持續的遙測資料,包括訊號強度與接收靈敏度、前置誤位元率、後置技術直方圖等;還能識別靜電放電(ESD)損壞、檢測光纖上的灰塵。這一解決方案遠超傳統雷射光模組的系統級能力。”就目前而言,短距互聯的可靠性上限,依然掌握在銅纜/ AEC手中,CPO並非替代者,其優勢更多來自距離、密度和系統可觀測性。Arista在演講中還提到了功耗這一行業關注的核心問題。“我們產品的功耗通常比同類產品低約25%——當大規模部署產品時,這一優勢將尤為顯著。當前,功耗是行業關注的核心問題之一,低功耗交換機無疑具備很強的市場吸引力。”過度方案,正在“吃掉”CPO的敘事空間值得關注的是,LPO、AEC、ALC等過渡方案也在持續蠶食、分流原本被寄望於CPO的應用空間。越來越多廠商在實踐中形成了一種微妙的共識:現有互聯生態遠未觸及邊界,CPO並非唯一答案,也不是當下的終局。LPO(線性驅動可插拔光模組)被視為一種替代方案。Arista稱,LPO技術“可以說是Arista向行業輸出的前瞻性創新”,其聯合創始人Andy Bechtolsheim提出了這一概念,並推動行業廣泛採用。“目前,800G速率的LPO光模組已實現大規模部署,該技術為客戶帶來了顯著的成本優勢:由於無需數字訊號處理器(DSP),資本支出更低;同時功耗更低,營運支出也相應減少,客戶可以將節省的功耗預算用於部署更多計算裝置。我們有信心在1.6T速率下實現LPO技術的穩定運行。”LPO的邏輯是“去DSP → 降功耗、降成本”,對交換機與光模組廠商來說,這是“架構最佳化”,而非“生態重構”,相對應的,AEC(有源電纜元件)與ALC(有源光纜)的邏輯則是在2–30米這個最密集、最關鍵的互聯區間,提供接近銅纜的可靠性 + 接近光學的頻寬。Credo的Bill Brennan強調,AEC在資料中心的應用場景非常廣泛,“除了多種解決connectivity問題的方案外,無論是後端網路的橫向擴展/縱向擴展交換機機櫃、前端連接,都存在大量超越標準的創新機會。因此,AEC領域將持續湧現更多創新。”他特別指出,Credo的獨特之處在於開創了這個市場,且“必須深入產業鏈各個環節,對產品的每一個方面都承擔責任”——這種端到端掌控能力,構成了難以踰越的競爭壁壘。Marvell推出的“黃金線纜計畫”,正是AEC這一邏輯的延伸。Marvell的Chris Koopmans指出,線纜產品與光模組本質上沒有區別,超大規模客戶希望實現多源供應。“我們的‘黃金線纜計畫’本質上是一個完整的參考設計,向相關企業展示如何打造符合要求的產品。之所以能實現這一點,是因為我們的DSP在PAM4技術方面性能強勁、功能強大,能夠適配各類線纜——我們無需端到端控制和定義整個產品,而這正是客戶想要的。”ALC技術則是另一個重要方向。Credo的Bill Brennan指出,當行業最終需要CPO替代方案時,“我們在ALC中投入的微LED技術將直接應用於近封裝光學(near-package optics),其功耗僅為CPO的1/3,且無需像當前展會上展示的那樣採用複雜的交換機設計。因此,我們認為當行業最終需要CPO替代方案時,我們的技術路徑將更具優勢。”CPO的現實問題清單綜合多家公司的表態,CPO面臨的挑戰高度一致,且集中在工程與商業層面而非技術可行性。可維護性是最突出的痛點。Lumentum的袁武鵬直言,CPO技術“經過多代演進,其核心目標是降低成本和功耗。目前行業仍在解決可維護性等相關問題,我們相信隨著技術成熟,CPO將得到廣泛應用。”博通的陳福陽更明確指出CPO的三大根本缺陷:“從成本來看,CPO肯定更貴;從可靠性來看,基於雷射的CPO遠不如現有技術;從功耗來看,它也不是當前討論的所有技術中最低的。這些缺陷導致CPO遲遲未能量產。”系統設計複雜度是另一重障礙。Marvell的Chris Koopmans指出,縱向擴展領域所需的光互聯技術是一種完全不同的技術類型,必須直接與千瓦級XPU和交換機共封裝,具有完全不同的外形尺寸、密度、頻寬和技術特性。Astera Labs的Jitendra Mohan補充道,光鏈路由三個元件構成:電積體電路(EIC)、光子積體電路(PIC)和連接器——“連接器是關鍵元件,負責將光子積體電路的光輸出耦合到光纖,目前限制了光學技術的規模化(量產數百萬EIC和PIC相對容易,但可靠地連接光纖等環節面臨挑戰)。”成本結構不確定性困擾著所有參與者。博通的判斷最為直接:“從成本來看,CPO肯定更貴。”這不是便宜的光模組,而是昂貴的系統工程——散熱、供電、測試、維修全部需要重構。除此之外,生態尚未形成,需要交換機、光學、封裝、軟體協同成熟。Lumentum的袁武鵬在談到橫向擴展CPO時指出,“客戶的機會成本非常高,所有項目都需要即時產能爬坡,他們沒有時間去認證新的供應商。”而對於新技術,這種生態成熟度的建立需要多年時間。為什麼超大規模雲廠商不著急?有趣的是,即便是技術最激進、資金最充裕的超大規模雲廠商,對CPO的態度也異常謹慎。Lumentum的袁武鵬給出了一線觀察:“目前,客戶仍然更傾向於依賴現有的供應鏈,因為他們已經建立了高度的信任——知道這些供應商能夠實現產能爬坡,且產品可靠性、質量都有保障,而這種信任需要時間積累。尤其是現在,客戶的機會成本非常高,所有項目都需要即時產能爬坡,他們沒有時間去認證新的供應商。”這透露出了一個行業關鍵矛盾:CPO技術的部署窗口,與超大規模客戶的部署節奏存在根本性錯配。Arista的Hardev Singh在談到雲客戶需求時指出:“二級雲廠商和企業客戶的合作模式略有不同:這些客戶有明確的需求和上市時間要求,他們關心的是‘供應商是否能提供現成的網路解決方案,快速部署並投入使用’。而與超大規模雲廠商的合作則完全不同——他們始終追求前沿技術,傾向於採用尖端創新方案。”但即便是“始終追求前沿技術”的超大規模雲廠商,在面對CPO時也表現出了審慎態度。原因何在?第一,可靠性要求極高,容錯空間為零。Credo的Bill Brennan反覆強調:“在超大規模客戶使用的任何人工智慧系統中,除了XPUs等定製加速器,還包含大量其他元件,因此我們認為以系統形式銷售並對整個系統承擔全部責任是合理的。”而CPO技術一旦出現問題,是“整板級風險”,遠超可插拔光模組的故障隔離能力。第二,維運體系的慣性巨大。Lumentum的袁武鵬指出,所有超大規模雲廠商“都擁有自己的網路團隊”,已經建立了完善的認證、測試、維運流程。Marvell的Chris Koopmans補充道:“客戶的認證周期通常在一年前就已啟動,即使後來推出性能合格的產品,要在多個模組生態系統、多種雷射類型以及所有超大規模客戶要求的特定外形尺寸中完成認證,也需要很長時間。而如今,客戶最關注的首要因素是上市時間。”第三,供應鏈安全優先於技術領先。博通陳福陽在財報會議上強調:“隨著需求增長和創新封裝的需求提升,封裝已成為一項極具技術性的挑戰。建設新加坡工廠的核心目的是部分內部化先進封裝產能——我們認為,基於強勁的需求,內部化封裝不僅能最佳化成本,更能保障供應鏈安全和交付穩定性。”而CPO技術的供應鏈成熟度,遠低於可插拔光模組。第四,架構靈活性需求強烈。Astera Labs的Jitendra Mohan指出:“目前,許多客戶仍在規劃整體架構。如果將所有功能都整合到單片晶片中,客戶現在就必須做出決策。但在行業標準尚未最終確定、另一端的交換機尚未推出的情況下,誰會冒險將所有賭注押在某一種協議上?”而可插拔架構恰恰提供了這種靈活性。Marvell的Chris Koopmans總結道:“歸根結底,我們需要評估每個機會:我們的角色是什麼?客戶是否要求我們這樣做?我們能帶來什麼差異化價值?以及我們在該領域能否獲得可持續的競爭優勢?目前,客戶要求我們專注於PCI Express及其向UALink的轉型——這對我們來說是一個巨大的機會,因此我們的重點在此。”CPO不是偽命題,但現在顯然“被講早了”對於行業而言,CPO更像是互聯體系的“最後一公里”技術,而非下一代架構的默認選項。它解決的是現有技術路徑徹底失效之後的問題,而不是當下迫在眉睫的瓶頸。這一判斷,在博通首席執行長陳福陽的表態中得到了高度概括。他直言:“未來某個時刻,矽光子學將會成為實現高速傳輸的唯一途徑,屆時它的重要性便會凸顯,但我們目前還未到那個階段。只有當可插拔光模組技術也無法滿足需求時,矽光子學才會成為最終的解決方案。這一天終將到來,我們也已做好準備,只是不會很快實現。”換言之,CPO是終極解法之一,但不是當前階段的最優解。因此,在相當長的一段時間內,LPO、AEC、ALC 以及ZR光模組仍將承擔資料中心互聯的主力角色。相比之下,CPO的應用場景將更加收斂——主要集中在極高連接埠密度、極端功耗約束、以及現有架構已經“無解”的特定系統中,而非大規模鋪開。多家廠商給出的技術路線與時間表,也印證了這一判斷。Arista的Hardev Singh明確表示,LPO的演進遠未結束:“我們有信心在1.6T速率下實現LPO技術的穩定運行,目前相關研發工作正在推進中。”Credo首席執行長Bill Brennan則從另一條路徑給出了更具“反直覺”的判斷:“我們在ALC中投入的微LED技術將直接應用於近封裝光學,其功耗僅為CPO的三分之一,且無需複雜的交換機設計。因此,我們認為,當行業最終需要CPO替代方案時,我們的技術路徑將更具優勢。”在時間節點上,行業的判斷也正在逐步收斂:2026年:800G仍佔主導,1.6T開始放量,LPO / AEC持續增長2027年:1.6T成為主流,CPO進入小規模測試與驗證階段2028年及以後:CPO在特定場景(主要是縱向擴展的高密度系統)中開始規模化部署Lumentum的袁武鵬對這一節奏給出了相對激進、但依然謹慎的預測:“到2027–2028年左右,首批採用CPO的客戶中,約有40%–50%的交換機將基於CPO技術。但這一判斷仍存在較大不確定性,客戶也在根據自身業務節奏進行評估。”Astera Labs的Jitendra Mohan則給出了幾乎一致的判斷:“我們預計將在 2028–2029 年實現大規模部署。光學技術的演進不會一蹴而就,2027 年更多是測試性部署,為後續放量做準備。”由此,真正的問題已經不再是“要不要 CPO?”,而是“在什麼條件下,現有方案真的不夠用了?”Marvell光學與互聯業務負責人Chris Koopmans給出了最務實的回答:“歸根結底,客戶在光學技術選擇上存在很大分歧。我們的理念不是強迫客戶接受某一種路徑,而是支援他們的選擇——如果客戶希望將其指定的光子技術與我們的電晶片和封裝方案結合,我們會非常樂意配合。”這或許正是理解當前CPO討論熱度與實際部署節奏錯位的關鍵所在:在PPT裡,CPO非常重要;在機房裡,它並不緊急。行業真正需要的,不是技術可行性證明,而是系統必要性證明。只有當 LPO、AEC、ALC等路徑在功耗、密度、可靠性上同時觸頂,CPO才會從未來選項轉變為當下必需。而從當前幾乎所有行業巨頭的共同表態來看,那個時刻,還沒有到來。 (半導體行業觀察)
甲骨文百億項目融資突然「告吹」,美國AI泡沫恐慌來襲?
美國時間12月中旬,有報導稱,甲骨文在美國資料中心項目的主要支持者Blue Owl Capital將不會資助密歇根州一個價值100億美元的資料中心。這被視為百億項目融資“告吹”,該消息迅速放大並引發市場對AI泡沫的擔憂。實際上,自9月初見頂以來,甲骨文股價已下跌近45%。作為近兩年推動美股牛市的關鍵因素,AI行業對於明年市場的走向依然至關重要。難道,美國此輪 AI 基建周期已經提前來到了拐點?甲骨文的AI故事不香了?7 個月前,甲骨文官方帳號在社交媒體上發佈了一段頗具象徵意味的視訊。畫面中,時任甲骨文雲基礎設施負責人 Clay Magouyrk 正帶領 OpenAI CEO 山姆·奧特曼(Sam Altman)參觀德克薩斯州阿比林(Abilene)首個“星際之門(Stargate)”項目現場。Magouyrk 對奧特曼形容道:“這裡就像是小孩子在玩很大的玩具。”甲骨文官號配文稱:“我們正在建設全球最大的 AI 訓練設施。”當時,多家媒體援引知情人士稱,OpenAI 未來幾年將向甲骨文支付千億美元規模的算力費用。圖:2025年4月,OpenAI CEO奧特曼造訪甲骨文資料中心現場這一敘事迅速傳導至資本市場。甲骨文股價從 4 月 21 日的約 122 美元一路上漲,在 9 月初一度衝至 320 美元以上,也讓 81 歲的聯合創始人埃裡森以約 3832 億美元的身家,短暫超過馬斯克,重回世界首富寶座。幾乎在同一時期,主導雲端運算基建項目的 Clay Magouyrk 被提拔為甲骨文聯席 CEO。但進入年末,隨著投資者逐漸將目光從“故事規模”轉向“兌現這些承諾所需付出的成本”,甲骨文股價開始回吐此前全部漲幅。問題不再是 AI 有沒有前景,而是這條路到底要花多少錢、多久才能回本?信用市場最先“翻臉”曾因做空安然成名的大空頭吉姆·查諾斯(Jim Chanos),在 12 月初毫不避諱地公開炮轟甲骨文資產負債表擴張過快,正逼近財務承壓區間。他在播客採訪中直言,作為五大超大規模雲廠商之一,甲骨文為了追趕同行而採取了激進投資策略,但新增資本投入並未帶來相應的利潤回報。“如果用新增營業利潤除以新增投入資本來計算,甲骨文的回報率只有大約 8.5%,而微軟接近 40%。”查諾斯指出,這意味著甲骨文目前無法收回增量資本成本。在他看來,更大的不確定性來自 AI 變現時間表本身。市場普遍假設 AI 的貨幣化拐點將在 2027到2028 年出現,但如果這一節點被推遲至 2030 年,甚至最終無法兌現,甲骨文將面臨根本性的財務挑戰。這並不是對 AI 技術前景的否定,而是對當下資本配置邏輯的質疑。這一點,在甲骨文 12 月初的財報電話會上被體現得更加直接。多位分析師反覆追問:甲骨文在 AI 上到底要花多少錢?但管理層並未給出清晰的數字答案。私募信貸開始轉向?與此同時,私募信貸市場也在重新定價風險。紐約投資公司 Blue Owl 過去是甲骨文多項大型資料中心項目中的關鍵資本方。其典型做法是通過設立特殊目的公司(SPV),引入銀行融資,並以甲骨文的長期租約作為現金流支撐,從而幫助甲骨文實現“資產負債表外”的擴張。在德州阿比林、新墨西哥等項目中,這一模式運轉順暢。但密歇根項目成為分水嶺。隨著市場對 AI 支出規模、甲骨文自身債務水平以及項目執行風險的態度發生變化,貸款方開始要求更嚴格的租賃和債務條款。在融資成本上升、槓桿空間收緊的情況下,該項目對 Blue Owl 的財務吸引力明顯下降,最終導致其在放款前選擇退出。儘管甲骨文緊急“滅火”稱,項目的股權交易最終談判進展按計畫進行,整體推進符合預期,但市場的擔憂已經被點燃。OpenAI能否付得起錢?另一條逐漸被市場放大的質疑,來自OpenAI算力訂單的可靠性。摩根大通分析師埃麗卡·斯皮爾在 12 月 15 日關於甲骨文的研報標題為“如果你建造它,他們(OpenAI)會付錢嗎?”投行D.A.Davidson 科技研究主管分析師 Gil Luria 在 12 月 12 日的一份報告中直言,“鑑於 OpenAI 不太可能兌現其 3000 億美元的承諾,我們認為甲骨文最好的做法是主動重組該合同,以更負責任地部署資本,而不是假裝擁有 5230 億美元的剩餘履約義務( RPO)。”剩餘履約義務(RPO)指的是企業已簽訂的、但尚未確認為收入的合同銷售。換句話說,OpenAI承諾在未來五年向甲骨文支付3000億美元購買算力,但並非一定發生。截至 11 月 30 日,甲骨文的 RPO 已躍升至 5230 億美元。“OpenAI 誤導了甲骨文,甲骨文又誤導了投資人。” Gil Luria 在接受採訪時表示,儘管甲骨文被頻繁提及為 OpenAI 的重要基礎設施合作方,但在實際算力分配、合同結構以及未來擴展中,其最終能分得多少,仍缺乏透明度。11月初,OpenAI 先後與微軟、亞馬遜簽署新的合作協議,算力來源呈現明顯的多元化趨勢,讓甲骨文在OpenAI生態中的位置變數增加。更重要的是,OpenAI 在AI需求中的位置也處在變動中。一來,隨著Google等資金實力更雄厚的競爭對手加速追趕,新一代 Gemini 模型獲得市場好評,奧特曼本人在12月初已經通過公司內部信發出“紅色警報”,那怕推遲其他產品的開發,也要全力押注GPT在AI競爭中保持身位。也就是說,在技術路線快速演進的背景下,OpenAI 是否能夠持續保持領先,並不確定。二來,OpenAI 與晶片製造商輝達之間的協議仍懸而未決。兩家公司曾於 9 月 22 日宣佈簽署意向書,稱輝達將在多年內向OpenAI投資多達 1000 億美元,OpenAI 則購買數百萬輝達專用晶片用於其 AI 基礎設施。外界曾期待OpenAI會把輝達的投資轉手給甲骨文購買算力。但兩個多月過去了,協議仍未正式簽署。輝達在最新財報中表示,“並不保證任何投資會按預期條件完成,甚至根本不會完成。”AI競爭進入“現金流檢驗期”?甲骨文並非唯一重注 AI 的科技公司,但在這一輪投資周期中,卻處在對資本最為敏感的位置。在 AI 浪潮之前,甲骨文依賴高度可預測的現金流和約 70% 毛利率的傳統軟體業務,能夠支撐穩定回購與分紅。但 AI 投資打破了這一平衡。資料中心和算力基礎設施意味著資本高度前置、回報周期拉長,執行節奏成為關鍵變數。相比之下,微軟和Google擁有更強的現金流緩衝,更容易消化長期資本消耗。當資本已經投入、收入尚未兌現、利率仍處於高位時,市場開始重新評估,那家公司的資本結構,能夠承受更長時間的回報延遲。儘管公司已任命新的聯席 CEO,但是否繼續為 AI 承擔高強度投入,最終仍由創始人拉里·埃裡森拍板。Oracle 的英文原意是“神諭”。當 AI 投資進入結算階段,市場關心的也不再是預言是否宏大,而是誰能撐到預言兌現的那一天。 (新浪科技)
AI暴擊下,科技行業增長最快的新工作居然是這個
過去兩年裡,關於“AI 將導致大規模失業”的討論幾乎變成全民話題。在AI的發源地——科技行業,也普遍瀰漫著一種“被替代”的焦慮。根據美國專門報導失業資料的Layoffs.fyi追蹤顯示,2025年以來,200多家科技公司已經裁掉了12多萬名員工,其中不乏微軟、Google、亞馬遜等大廠的大規模裁員。高盛曾在一份研究報告中指出:全球3億全職崗位面臨AI替代風險,美國三分之二的職業可以實現部分自動化。惠普公司CEO恩裡克·洛雷斯也曾在財報會議上直言不諱地說:"很多人工任務未來會由AI做得更好、更快。"如果根據這種趨勢線性外推,必然會進入一個絕望的死胡同:當AI 掌握了邏輯與算力,人類還能剩下什麼?當所有目光都盯著“演算法工程師”和“算力架構師”時,大洋彼岸的矽谷和華爾街,卻悄然開啟了一場反直覺的招聘狂潮。根據《華爾街日報》的最新報告,科技巨頭們正在以高達 27.4 萬美元(約合人民幣 200 萬)的年薪,瘋搶一種古老而感性的角色。這個職位不是“提示詞工程師”,也不是“資料標註員”。它是“故事講述者”(Storyteller)。一、公司正“瘋狂招募故事講述者”華爾街日報剛剛發表了一篇文章《Companies Are Desperately Seeking ‘Storytellers’公司正“瘋狂招募故事講述者”》,在外網引起了熱烈的討論。從中我們可以看到一種早期趨勢的痕跡,和經叔之前探討的、為什麼科技公司和風投都開始搞自媒體,其實是一個邏輯。根據報導,美國 LinkedIn(領英)職位發佈裡包含“storyteller”的比例,在截至 11 月 26 日的一年裡翻倍。更具體的數字是:在“行銷”類別下,提到該詞的崗位約5 萬條;在“媒體與傳播”類別下,超過2 萬條。不僅招聘在漲,連高管嘴裡這個詞也越來越多。FactSet 統計顯示:企業高管在財報電話會和投資者日裡提到“storyteller / storytelling”的次數,今年截至 12 月 11 日為469 次,而 2024 年全年359 次,2015 年僅147 次。更直觀的是案例,而且它們都帶著一種“急迫感”:•Google招“客戶故事講述經理”,說“講故事在推動客戶獲取與長期增長上不可或缺”•Microsoft的安全組織招“敘事與講故事”方向的高級總監,要求既懂技術又能溝通、又能行銷。•合規技術公司Vanta招“講故事負責人”,最高薪資可達27.4 萬美元。•Notion乾脆把傳播、社交媒體、網紅合作合併成一個 10 人的“講故事團隊”。•金融科技品牌Chime開出了首個“企業編輯與講故事總監”崗位。•USAA一年內從 0 招到第 4 位 storyteller,用來寫部落格、報告、指令碼、演講稿,把真實場景“帶入生活”。更重要的是,這不是“文案崗換了個潮一點的名字”這麼簡單。報導裡有一句話很關鍵:它不完全是編輯、也不完全是活動、公關或行銷,而是這些模組如何協同,最終匯入同一個更大的東西——你的故事。換句話說:企業在招的,不是“寫得多的人”,而是能把公司講成一個世界觀的人。二、為什麼會這樣?為什麼是故事講述者?某種層面,答案隱藏在經濟學的供需曲線裡:當某種資源無限過剩時,與之相對的另一種資源就會變得極度稀缺。AI 帶來了什麼?它帶來了人類歷史上最恐怖的“內容通膨”。資訊不再稀缺,邏輯不再稀缺,甚至平庸的創意也不再稀缺。但“意義”稀缺。“信任”稀缺。“把冷冰冰的技術轉化為人類願景的能力”,極度稀缺。我們可以從三個底層變化理解這件事。1)“贏得媒體”在縮小,品牌被迫“直接面向受眾”過去公司很依賴媒體報導(earned media)。但現實是,媒體行業在收縮:報導引用了美國勞工統計局資料——“新聞分析師、記者與新聞工作者”人數約4.9 萬,而 2000 年是65,930。地方新聞同樣萎縮:西北大學梅迪爾學院的《地方新聞現狀》報告指出,美國紙媒發行量較 2005 年下降70%,一些大報網站瀏覽量近年也顯著下滑。媒體變少、注意力變貴,於是品牌越來越像“媒體公司”:自己做帳號、做播客、做視訊、做 newsletter(比如 Substack)。這叫going direct——不再等別人替你講,而是自己講。但問題來了:你管道越多、觸點越碎,就越需要有人把它們統成一個敘事宇宙。否則你今天發一條“我們很溫暖”,明天做一個“我們很狠的增長”,後天講“我們有信仰”,觀眾只會覺得:你到底是誰?2)“AI 內容氾濫”製造了信任危機,真實敘事反而變貴報導裡有位傳播公司 CEO 講得很直白:“AI slop(AI 垃圾內容)製造了巨大不信任。”當每個人都能一鍵生成“像樣的文字”,文字本身就不再是價值。價值轉移到了更稀缺的東西:•立場是否清晰•語氣是否一致•敘事是否可信•細節是否來自真實世界•你是否能讓人感覺“這裡有個人”這也是為什麼很多公司更愛招前記者:記者訓練的核心不是“寫”,而是不斷追問:So what那又怎麼樣呢?讀者為什麼要在乎?這對他意味著什麼?這不是關於文采,而是“意義生產”。3)在過剩裡,人需要意義;在噪音裡,組織需要一致性講故事,就是在豐剩和過剩中強加意義、在噪音中建立連貫、在權力面前賦予正當性的唯一方式。沒有敘事控制權,戰略、營運、資本都不會長期立足。因為,資訊越多、選擇越多、管道越多,系統越容易走向混亂。混亂的代價是什麼?不是“看不懂”,而是不相信、不記得、不願意跟隨。所以 storytelling 的本質,不是“講得更動聽”,而是讓一個組織在外界的噪音裡依然能做到:•我們相信什麼•我們反對什麼•我們為誰服務•我們如何證明•我們要把人帶到那裡你會發現,這些問題回答不清楚,再多內容也只是“產出”;回答清楚,內容才會變成“敘事資產”。當AI生成一切,聰明人開始搶佔敘事資本和認知程式設計權為什麼AI 時代需要故事講述者?因為技術本身是冰冷的、理性的、複雜的。而人類的選擇是感性的、情感的、簡單的。當AI可以寫出完美的程式碼、生成精美的設計、做出精準的預測時,企業發現:技術不再是護城河。任何技術,都會被快速複製、快速迭代、快速商品化。但故事不一樣。一個好故事,可以建立情感連接,可以塑造品牌信仰,可以創造文化認同。它讓技術不再是功能,而是意義;不再是工具,而是身份。這不僅是行銷,更是生命的哲學。當我們說"講故事"時,我們說的不是"編個好聽的故事"。我們說的是:1. 賦義(Meaning-making):把複雜的技術和價值,轉化成普通人能理解和感受的意義。2. 降維壓縮(Dimension Reduction):把龐雜的資訊壓成一句可記、可講、可轉述的語言。3. 控制敘事主權(Narrative Control):在資訊噪音中,主動定義自己是誰、為什麼重要、要去那裡。在AI時代,這三件事變得前所未有的重要。因為當AI可以生成無數內容時,品牌需要的是一個穩定的"敘事引力場"——讓別人遇到某類問題,就會想到你。當AI可以模仿任何風格時,品牌需要的是獨特的"聲音指紋",讓讀者一眼知道"這就是你"。正如一位傳播專家所說:"在一個產出無限的世界裡,'故事'才是稀缺的底層要素。誰能把混沌壓縮成一種人們能夠感受、記住、原諒並願意圍攏的東西,誰就真正運行著這個系統。"三、最高級的權力:重新審視賈伯斯的“現實扭曲力場”提到科技與故事,我們無法繞開史蒂夫·賈伯斯。很多人誤以為賈伯斯的成功在於“極致的產品”,或者“飢餓行銷”。但如果拔高一個維度,你會發現,賈伯斯一生都在踐行那個終極真理:“世界上最有力量的人是講故事的人。講故事的人決定了一個即將到來的世代的願景、價值觀和議程。”賈伯斯不僅僅是在賣手機或電腦,他是在建構一種“世俗宗教”。當 2001 年所有廠商都在比拚 MP3 播放器的儲存空間(是 64MB 還是 128MB)時,賈伯斯從口袋裡掏出 iPod,說了一句至今仍是經典的文案:“1000 首歌,裝進口袋。”請注意這其中的差別:• 平庸的敘事:參數(Storage)、功能(Play)、價格。• 賈伯斯的敘事:場景(Pocket)、體驗(Music)、自由(1000 Songs)。他沒有販賣硬體,他販賣的是“未來的生活方式”。賈伯斯最高超的地方,在於他把自己和蘋果塑造成了“反抗平庸的英雄”。從 1984 年那個對抗老大哥的廣告,到“Think Different”裡致敬愛因斯坦和畢加索,他建構了一個巨大的敘事引力場:購買蘋果產品,不是消費行為,而是一種身份投票——你投票支援創新,反對墨守成規。這就是為什麼今天科技公司瘋搶Storyteller 的根本原因:在技術同質化的時代,唯有敘事能建立“護城河”。四、普通人的“道”:AI 時代,成為自己敘事的主人當AI開始"最佳化"人類,當演算法開始替代工作,當效率成為唯一的衡量標準時,我們面臨一個選擇:是被動地接受被最佳化的命運,還是主動地建構自己的敘事?科技公司"瘋狂招募"故事講述者,不是因為他們突然變得文藝了,而是因為他們終於意識到:在AI時代,技術不再是護城河,敘事才是。在AI時代,普通人最需要學的不是提示詞,不是如何程式設計,也不是"如何講故事"的技巧,而是"如何建構意義"的底層邏輯。1)別把自己活成“功能集合”,要活成“意義坐標”AI 最擅長替代的,是可拆解、可複製、可規模化的輸出。人最難被替代的,是他所代表的意義:你站在那一邊,你相信什麼,你願意為什麼付出代價。當你能成為一種“坐標”,你就不再只是一個帳號、一份簡歷、一項技能,而是別人用來理解世界的一塊拼圖。2)在無限內容裡,稀缺的是“可被記住的解釋”今天內容最大的問題不是少,而是“太多且互相打架”。所以真正有價值的人,不是製造更多資訊,而是提供更少、但更穩定的解釋框架。能讓人記住、願意複述、可以傳遞的那種解釋,就是你的敘事力量。3)敘事主權決定你能走多遠賈伯斯極度在意發佈節奏、表達結構、本質上都是在守護一件事:解釋權。同樣,個人在 AI 時代最重要的能力之一,是不被平台、不被熱搜、不被他人的評價體系定義——你要能先定義自己。當你失去敘事主權,你就會被迫在別人的話語裡求生;當你擁有敘事主權,你才可能在變化裡持續生長。4)越是技術狂飆,越需要人文錨點AI 讓效率暴漲,也讓人更容易迷失。越是這種時候,人越需要一些“錨”——價值觀、願景、歸屬感、被理解的感覺。這就是為什麼科技公司會在最技術的地方,反而開始瘋狂招“講故事的人”。AI 會繼續加速,崗位會繼續重組。但《華爾街日報》這條趨勢至少告訴我們:當世界變得更像機器,人們反而更渴望“人”的東西——意義、信任、立場、連貫、被理解。所以,科技行業增長最快的新工作叫 storyteller,一點也不矛盾。它只是提醒我們:在過剩時代,能把混沌講清楚的人,才是真正稀缺的人。 (不懂經)
高盛:中國網際網路行業策略大轉向,雲和資料中心成top pick,超越遊戲
高盛在3季度業績發佈及調研後,對中國網際網路行業策略大轉向:把“雲與資料中心”提到了首選類股,排到了遊戲和出行之前。AI帶來的算力需求和資本開支(Capex)擴張,已經是最確定的增長邏輯了。1、最大預期差:雲與資料中心成為“新王” ☁️高盛這次非常堅決,把雲和資料中心類股從原來的第三提升到第一。邏輯很硬:AI訓練和推理的需求持續爆發,加上巨頭們都在搞“多晶片策略”,資料中心的訂單量非常飽滿。核心邏輯:不僅是輝達,國產晶片的供應上來後,算力基建的利用率和回報率都在提升。2、AI助手的“入口之戰”是個大隱憂 🤖報告專門討論了一個長線風險:字節跳動的“豆包手機助手”。這東西能直接在作業系統層面(OS-level)幫使用者跨APP操作,比如比價、點外賣。這對現有的APP生態是個降維打擊。雖然目前微信等巨頭因為安全隱私原因封鎖了它的介面,但這種“超級AI代理”對使用者流量入口的爭奪,是未來幾年最大的變數。字節系App現在霸榜iOS免費榜前五中的四席,攻勢很猛。3、本地生活:燒錢該結束了,關注利潤修復 🛵外賣和即時零售打得太凶,三季度行業大概虧了700億人民幣,太誇張了。高盛判斷,這種非理性的補貼戰不可持續。格局推演:美團、阿里、京東的市場份額最終可能會穩定在 5:4:1。美團:雖然長期單均利潤預期被微調(從0.8元降到0.7元),但在這個價位,壞消息已經Price-in了,隨著補貼退坡,利潤修復是大機率事件。4、最新的“核心股票池”名單 📝根據最新的類股偏好,高盛更新了首選名單:雲/資料中心:阿里巴巴、萬國資料、世紀互聯。遊戲(防守反擊):騰訊、網易。出行(格局穩固):滴滴、滿幫。電商(新面孔):快手(新增為關鍵推薦,看好其AI模型Kling的突破和電商變現)。5、估值怎麼看? 📊現在中概網際網路類股的2026年預期市盈率(P/E)中位數大概是18倍。之前的上漲主要靠殺估值修復(Multiple Expansion),接下來的漲幅,必須得靠實打實的每股收益(EPS)增長來驅動了。所以,選利潤兌現能力強的公司,比單純博反彈要穩妥得多。總的來說,風向變了,硬科技基礎設施(資料中心)的優先順序在上升,而純流量變現的生意面臨AI新玩法的挑戰。 (硬AI)